“No sé”: ChatGPT-5 deja sin palabras a Elon Musk y a expertos tecnológicos

En las últimas semanas, el lanzamiento de ChatGPT-5 de OpenAI ha captado la atención mundial. Lo sorprendente no fue la velocidad de sus respuestas ni su capacidad de análisis, sino la respuesta más humana posible: “No sé”.
Un usuario preguntó a la IA si su máquina virtual estaba ubicada en Europa o Estados Unidos. Tras 34 segundos de procesamiento, ChatGPT-5 respondió solo con dos palabras, dejando atónitos a muchos, incluidos expertos como Elon Musk, que destacó la naturalidad de la interacción.
El debate surgió de inmediato: ¿por qué una IA no puede dar siempre una respuesta precisa? Musk y otros especialistas consideran que admitir desconocimiento es un paso clave hacia la Inteligencia Artificial General (IAG).
Kol Tregaskes, usuario de X, comentó que prefiere una IA que diga “no sé” antes que inventar datos, lo que refleja la importancia de la fiabilidad y la transparencia en los modelos de inteligencia artificial.
Mientras en X se aplaudía la sinceridad de ChatGPT-5, en Reddit algunos usuarios cuestionaron la fiabilidad de este tipo de respuestas. Para esclarecerlo, reformularon la pregunta original, logrando que la IA indicara que su infraestructura está distribuida entre Estados Unidos y Europa.
Este episodio demuestra que la formulación correcta de preguntas es clave y que las IAs avanzadas deben equilibrar velocidad y precisión sin sacrificar la honestidad sobre sus limitaciones.
ChatGPT-5 puede admitir desconocimiento si:
- No tiene los datos necesarios en su entrenamiento.
- Las fuentes disponibles son contradictorias o poco confiables.
Este comportamiento evita alucinaciones de IA, un problema común en modelos previos donde la inteligencia artificial inventaba respuestas con apariencia de certeza. La capacidad de reconocer límites marca un avance significativo hacia IA confiable y ética.
La Verdad Yucatán